검색
색인

“마르코프 과정”으로 총 1건 검색

용어사전 (1건)
  • 마르코프 과정, -過程, Markov process
    연속적인 시간의 함수로서, 어느 확률 변수(시간의 함수이므로, 이 집합을 확률 과정이라 한다)에 착안하였을 때, 시각 t에서의 확률 분포가 t보다 과거의 임의의 한 시각에서의 상태에만 관계하고, 그보다 과거의 상태에 무관할 때의 확률 과정.